Bei den meisten Arbeiten des Lehrstuhls zur Simulation künstlicher
neuronaler Netze wird der Stuttgarter Neuronale Netze Simulator (SNNS),
der von einem Team des Lehrstuhlinhabers an der Univ. Stuttgart entwickelt
worden war, eingesetzt.
SNNS ist ein leistungsfähiger universeller Simulator neuronaler
Netze für Unix Workstations und Unix-PCs. Er besteht aus einem
Simulatorkern, der aus Effizienz- und Portabilitätsgründen in
ANSI C geschrieben ist, einer graphischen Benutzerschnittstelle unter
X11R6, einem Netzwerk-Compiler, der aus trainierten Netzen ANSI
C-Programme generieren kann, einer Batch-Version des Simulators sowie
diversen Analyse- und Zusatzwerkzeugen.
Folgende Lernverfahren sind derzeit in SNNS implementiert:
-
Standard Backpropagation (BP)
-
Enhanced Backpropagation mit Momentum-Term und "flat spot elimination"
-
Batch Backpropagation
-
Backpropagation mit Weight-Decay
-
Quickprop
-
Resilient Progagation (Rprop)
-
Backpercolation
-
Counterpropagation (ohne Nachbarschaftsbeziehung in der Kohonen-Schicht)
-
Dynamische Lernende Vektorquantisierung (DLVQ)
-
Backpropagation Through Time (BPTT)
-
Batch Backpropagation Through Time (BBPTT)
-
Quickprop Through Time (QPTT)
-
Cascade Correlation (CC) mit eingebettetem Backpropagation, Quickprop oder Rprop
-
Recurrent Cascade Correlation (RCC)
-
Time-Delay-Networks (TDNN)
-
Radial Basis Functions (RBF)
-
Radial Basis Functions mit Dynamic Decay Adjustment (RBF-DDA)
-
Adaptive Resonance Theory 1 (ART1)
-
Adaptive Resonance Theory 2 (ART2)
-
ARTMAP Netzwerk
-
Selbstorganisierende Karten (Kohonen-Karten, SOM)
-
Autoassoziative Netzwerke mit Hebbschem Lernen oder Delta-Regel
-
Jordan-Netze
-
Elman-Netze und erweiterte hierarchische Elman-Netze
-
Monte-Carlo
-
Simulated Annealing
Eine Reihe von Pruning-Verfahren können Gewichte oder Neuronen eines
Netzwerks reduzieren, um durch eine geringere Zahl freier Parameter eine
Erhöhung der Generalisierungsleistung zu erhalten:
-
Magnitude Based Pruning (Mag)
-
Optimal Brain Damage (OBD)
-
Optimal Brain Surgeon (OBS)
-
Skeletonization (Skel)
-
Non-contributing Units
Bei den Verfahren können sowohl Eingabeneuronen als auch verdeckte
Neuronen, oder beides gleichzeitig, reduziert werden.
Zuletzt ist mit dem in SNNS integrierten Werkzeug ENZO der Univ.
Karlsruhe auch eine Topologieoptimierung neuronaler Netze mit Hilfe
genetischer Algorithmen nöglich.
Zurück
Lehrstuhl
Fakultät
Universität
Letzte Änderung: Wed Jul 23 09:49:35 MST 1997